iT邦幫忙

2021 iThome 鐵人賽

DAY 2
0
AI & Data

我比機器更需要學習系列 第 2

Day2 線性迴歸(Linear Regression)

  • 分享至 

  • xImage
  •  

線性迴歸是什麼?

講人話就是利用以往蒐集的資料建立一個預測未來走勢的模型,當輸入新的值[自變數(independent variable)]後,能夠預測出新的結果[應變數(dependent variable)]。

淺談線性迴歸

假設今天我想要預測房價,但是我只知道以往的房屋面積及價格,所以我將房屋面積當成X軸、價格當成Y軸畫出來,並且找出一條與這些點最短距離的直線,就是希望使損失函數(Cost Function)最小化,但是要如何找出這條直線?就是利用最小平方法(Least Squares Method),但是當我們考慮的因素變多,像是交通、地段、屋況等等......數據的維度變大了,我們就需要更複雜的計算,因此,梯度下降法(Gradient Descent)是你的好選擇,假設你今天站在山頂,想以最快的速度下山,當然會想走坡度最陡的地方,就是透過對損失函數不斷的微分,也是能夠使損失函數(Loss Function)最小化的方法之一。
用說的還是很抽象,用看的比較好了解,以下帶來一支影片:

梯度下降,神經網絡如何學習 l 第二章 深度學習
https://www.youtube.com/watch?v=IHZwWFHWa-w&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi&index=2


上一篇
Day1 什麼是機器學習?
下一篇
Day3 邏輯斯迴歸(Logistic Regression)
系列文
我比機器更需要學習23
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言